今天我們接續昨日的話題,繼續來聊聊AI發展史上的第二次寒冬。
前面提到,AI在1956年達特茅斯會議之後,關注度來到了高峰,然後到了70年代後,許多的瓶頸仍然無法突破,再加上先前過份樂觀的預測,導致了大眾對於AI發展極度的失望,也因此在1974年開始進入了第一次的AI寒冬期。
自1974年AI進入第一次寒冬開始,一直到了1980年,AI才迎來了第二次的突破性發展並重新又回到了世人的關注裡。
這個時間點AI再次熱門起來的主要原因有幾個:
專家系統 (Expert System) 的發展:
專家系統是一種程序,而它的特別之處在於能夠從專門的知識中去推演出邏輯規則並且在此特定領域能夠回答或解決問題。可以理解成第一次的AI發展時,大家因為過於高估AI所以期待出來的成果能夠包山包海,但由於仍有許多突破不了的瓶頸,導致最後什麼都無法達成期待;而在第二次發展時,學者們著重於在特定的領域裡去設計AI並讓它能夠在特定的領域裡面從知識去推導出邏輯來解決問題。由於專家系統專注在表較小的知識領域,因此能夠避免常識問題,而它的設計也相對的簡單且容易實現。此外也有許多的實驗證明了專家系統的實用性,從而也帶動AI再次開始變得實用。
類神經網路迎來新的突破性理論。
日本第五代電腦系統計畫(5th generation computer Systems,FGCS):
日本在1981年撥下八億五千萬美元的巨款來支持第五代電腦系統計畫。目標是希望能夠建造出有能力與人類對話、解釋圖片與影像、翻譯語言並且能夠像人類一樣推理的機器。而其他的國家也跟著作出回應。英國挹注了三億五千萬英鎊開啟了Alvey工程。而美國的一個企業協會組織了微電子與計算機技術集團 (Microelectronics and Computer Technology Corporation, MCC),目的是向AI提供資助。
簡單來說,這個階段就是
然後就在大家對著AI再次充滿熱情與希望時,AI很快的又迎來了第二次的寒冬。
歷史總是驚人的相似,第二次的AI寒冬的原因是因為日本第五代電腦系統計畫失敗;
而類神經網路雖然有趣,但在那個年代並沒有比其他統計方法來的更好,反而需要用到更多的資源;
而備受看好的專家系統雖然在許多地方證明了實用性,但因為他能夠應用的領域太過專精,且更新與維護的成本過高導致專家系統跌落了神壇;
除此之外,數據的缺乏仍然是這個時代做AI的硬傷,而媒體與大眾的過度吹捧也再次導致了AI發展的美好泡泡破裂。
在第二次AI寒冬之時,由於大眾對於AI的過度吹捧導致過度的失望,讓許多研究學者/實驗室不太願意對外宣稱自己的研究領域是AI,轉而用自動化系統或是其他類似的文字來取代AI,原因就是在那個寒冬裡,大家聽到AI的直覺就是會失敗,導致AI在第二次寒冬裡背負著許多不良的名聲。
不小心又把故事說得太長了...
明天讓我們來看看AlphaGo是怎麼把AI重新推上巔峰並且讓全世界的目光再次轉移到AI來。